物联网(物联网)正在通过弥合信息技术(IT)和运营技术(OT)之间的差距来改变行业。机器正在与连接的传感器集成在一起,并通过智能分析应用程序管理,加速了数字化转型和业务运营。将机器学习(ML)带到工业设备是一个进步,旨在促进IT和OT的融合。但是,在工业物联网(IIOT)中开发ML应用程序提出了各种挑战,包括硬件异质性,ML模型的非标准化表示,设备和ML模型兼容性问题以及慢速应用程序开发。在这一领域的成功部署需要深入了解硬件,算法,软件工具和应用程序。因此,本文介绍了一个名为ML应用程序的名为“语义低代码工程”(SELOC-ML),该框架建立在低代码平台上,以利用语义Web技术来支持IIOT的ML应用程序的快速开发。 SELOC-ML使非专家能够轻松地模拟,发现,重复使用和对接ML模型和设备。可以根据匹配结果自动生成项目代码在硬件上部署。开发人员可以从称为食谱的语义应用模板中受益,从而快速原型最终用户应用程序。与工业ML分类案例研究中的传统方法相比,评估证实了至少三倍的工程努力,显示了SELOC-ML的效率和实用性。我们分享代码并欢迎任何贡献。
translated by 谷歌翻译
We propose spectrum-sliced reservoir computer-based (RC) multi-symbol equalization for 32-GBd PAM4 transmission. RC with 17 symbols at the output achieves an order of magnitude reduction in multiplications/symbol versus single output case while maintaining simple training.
translated by 谷歌翻译
We demonstrate transfer learning-assisted neural network models for optical matrix multipliers with scarce measurement data. Our approach uses <10\% of experimental data needed for best performance and outperforms analytical models for a Mach-Zehnder interferometer mesh.
translated by 谷歌翻译
我们通过实验验证一个实时机器学习框架,能够控制拉曼放大器的泵功率值以在二维(2D)中塑造信号功率演变:频率和光纤距离。在我们的设置中,优化了四个一阶反向传输泵的功率值,以实现所需的2D功率配置文件。泵功率优化框架包括一个卷积神经网络(CNN),然后是差分进化(DE)技术,在线应用于放大器设置,以自动实现目标2D功率配置文件。可实现的2D配置文件的结果表明,该框架能够确保获得的最大绝对误差(MAE)(<0.5 dB)与获得的目标2D配置文件之间。此外,该框架在多目标设计方案中进行了测试,该方案的目标是在跨度结束时达到固定增益水平的2D配置文件,共同在整个光纤长度上进行最小的光谱游览。在这种情况下,实验结果断言,对于目标扁平增益水平的2D轮廓,当设置在泵功率值中不受物理限制时,DE获得的最大增益偏差小于1 dB。模拟结果还证明,有足够的泵功率可用,可以实现更高的目标增益水平的更好的增益偏差(小于0.6 dB)。
translated by 谷歌翻译
传统上,交通事故管理(TIM)计划协调紧急资源的部署到即时事件请求,而无需容纳环境中事件演变的相互依存关系。但是,忽略对环境中事件在当前部署决策的过程中的固有相互依赖性是短暂的,而由此产生的幼稚部署策略可能会大大恶化整个事件延迟对网络的影响。环境中事件进化的相互依存关系,包括事件事件之间的事件,以及在近未实现请求中的资源可用性与预期的即时事件请求期间的持续时间之间的相互依存关系,应在进行当前阶段部署时通过浏览模型来考虑决定。这项研究基于分布式约束优化问题(DCOP)开发了一个新的主动框架,以解决上述局限性,克服了无法适应TIM问题中依赖关系的常规TIM模型。此外,配制了优化目标以纳入无人机(UAV)。无人机在蒂姆(Tim)中的作用包括探索不确定的交通状况,检测出意外事件以及从道路交通传感器中增加信息。我们对多个TIM情景模型的鲁棒性分析显示了使用本地搜索启发式方法显示令人满意的性能。总体而言,我们的模型报告说,与常规TIM模型相比,总事件延迟的大幅减少。在无人机的支持下,我们证明了通过紧急车辆较短的响应时间的总体事件延迟进一步减少,并且与估计的事件延迟影响相关的不确定性减少。
translated by 谷歌翻译
在工业和服务域中,使用机器人的主要好处是它们快速可靠地执行重复性任务的能力。但是,即使是相对简单的孔洞任务,通常也会受到随机变化的影响,需要搜索运动才能找到相关的功能,例如孔。尽管搜索提高了鲁棒性,但它以增加运行时的成本为代价:更详尽的搜索将最大化成功执行给定任务的可能性,但会大大延迟任何下游任务。根据简单的启发式方法,这种权衡通常由人类专家解决,这些启发式很少是最佳的。本文介绍了一种自动,数据驱动和无启发式方法,以优化机器人搜索策略。通过训练搜索策略的神经模型在一系列模拟随机环境上,在几个现实世界中的示例中进行调节并颠倒模型,我们可以推断出适应了基本概率分布的时间变化特征,同时需要很少的现实测量。在螺旋和探测器搜索电子组件的背景下,我们评估了对两个不同工业机器人的方法。
translated by 谷歌翻译
手术场景的语义分割是机器人辅助干预措施中任务自动化的先决条件。我们提出了LapseG3D,这是一种基于DNN的新方法,用于代表手术场景的点云的素云注释。由于训练数据的手动注释非常耗时,因此我们引入了一条半自治的基于聚类的管道,用于胆囊的注释,该管道用于为DNN生成分段标签。当对手动注释数据进行评估时,LapseG3D在前体猪肝的各种数据集上的胆囊分割达到了0.94的F1得分。我们显示LapseG3D可以准确地跨越具有不同RGB-D摄像机系统记录的不同胆囊和数据集。
translated by 谷歌翻译
我们介绍了时间多模式的多模式学习,这是一个新的决策模型系列,可以间接学习和传输在线信息,同时观察一个概率分布,该概率分布有一个以上的峰值或一个以上的结果变量,从一个时间阶段到另一个时间阶段。我们通过基于数据生理学驱动的相关性依次删除不同变量和时间之间的其他不确定性来近似后部,以解决不确定性下的更广泛的挑战性时间依赖性决策问题。对现实世界数据集的广泛实验(即,城市交通数据和飓风整体预测数据)证明了拟议的有针对性决策的卓越性能,而不是各种设置的最先进的基线预测方法。
translated by 谷歌翻译
研究了拉曼放大器优化的问题。使用机器学习(ML)获得了拉曼增益系数的可区分插值函数,该函数允许对前向传播拉曼泵的梯度下降优化。然后,针对任意数据通道负载和跨度长度优化了向前泵送配置中任意数量的泵的频率和功率。向前倾斜的拉曼放大器的实验训练的ML模型将正向传播模型结合在一起,以共同优化前向放大器泵的频率和功率以及向后放大器泵的功率。对于250 km的未重新曝光,展示了关节向前和向后放大器的优化。超过4 THz的增益平坦度为$ <$ 1〜 dB。使用数值模拟器验证了优化的放大器。
translated by 谷歌翻译
尽管存在能够在许多医疗数据集上表现出很好的语义分割方法,但是通常,它们不设计用于直接用于临床实践。两个主要问题是通过不同的视觉外观的解开数据的概括,例如,使用不同的扫描仪获取的图像,以及计算时间和所需图形处理单元(GPU)存储器的效率。在这项工作中,我们使用基于SpatialConfiguration-Net(SCN)的多器官分段模型,该模型集成了标记器官中的空间配置的先验知识,以解决网络输出中的虚假响应。此外,我们修改了分割模型的体系结构,尽可能地减少其存储器占用空间,而不会急剧影响预测的质量。最后,我们实现了最小的推理脚本,我们优化了两者,执行时间和所需的GPU内存。
translated by 谷歌翻译